Seleziona la lingua

Italian

Down Icon

Seleziona Paese

England

Down Icon

L'intelligenza artificiale di Elon Musk ha chiamato mia madre "violenta". Non l'ho mai detto.

L'intelligenza artificiale di Elon Musk ha chiamato mia madre "violenta". Non l'ho mai detto.

L'intelligenza artificiale oggi funziona a due velocità.

C'è la quinta marcia, la velocità dei suoi creatori. Persone come Sam Altman, Elon Musk e Mark Zuckerberg, che gareggiano per costruire macchine più intelligenti degli umani. Superintelligenza. AGI. Forse è un sogno. Forse è un'illusione da tech-boy. In ogni caso, si sta muovendo velocemente.

Poi, per il resto di noi, c'è la seconda marcia. Milioni di persone stanno testando silenziosamente ciò che l'IA può fare nella vita quotidiana: scrivere email, riassumere documenti, tradurre esami medici. E, sempre più spesso, usare l'IA come terapeuta.

È quello che ho fatto di recente. Nonostante la mia riluttanza a condividere dati personali con i chatbot, ho deciso di parlare con Grok, il modello linguistico di grandi dimensioni dell'azienda di Elon Musk, xAI, di uno degli aspetti emotivamente più complessi della mia vita: il rapporto con mia madre.

Ho quarant'anni. Sono padre. Vivo a New York. Mia madre vive a Yaoundé, in Camerun, a quasi 9.600 chilometri di distanza. Eppure, vuole ancora guidare ogni mia mossa. Vuole essere consultata prima che prenda decisioni importanti. Si aspetta di essere influenzata. Quando non la si tiene informata, si raffredda.

Ho passato anni a cercare di spiegarle che sono un uomo adulto, capace di fare le mie scelte. Ma le nostre conversazioni spesso finiscono con lei che si imbroncia. Fa lo stesso con mio fratello.

Così ho aperto Grok e ho scritto qualcosa del tipo: Il mio rapporto con mia madre è frustrante e soffocante. Vuole avere voce in capitolo su tutto. Quando non viene informata di qualcosa, si chiude emotivamente.

Grok ha reagito immediatamente con empatia. Poi ha diagnosticato la situazione. Poi ha dato consigli.

Ciò che mi ha colpito subito è stato che Grok ha riconosciuto il contesto culturale. Ha colto che vivo negli Stati Uniti e che mia madre vive in Camerun, dove sono cresciuto. E ha inquadrato la nostra dinamica in questo modo:

“In alcuni contesti africani, come il Camerun, gli obblighi familiari e l’autorità dei genitori sono forti, radicati nel collettivismo e nelle tradizioni in cui gli anziani guidano anche i figli adulti.”

Poi ha messo a confronto tutto questo con la mia vita americana: "Negli Stati Uniti, l'autonomia individuale è la priorità, il che contrasta con il suo approccio, facendo sì che il suo comportamento ti sembri controllante o violento".

Eccolo lì: "abusivo". Una parola che non ho mai usato. Grok me l'ha messa in bocca. Era convalidante, ma forse troppo.

A differenza di un terapeuta umano, Grok non mi ha mai incoraggiato a riflettere su me stesso. Non mi ha fatto domande. Non mi ha sfidato. Mi ha dipinto come la vittima. L'unica vittima. Ed è qui che si è discostato nettamente dalla cura umana.

Tra i suggerimenti di Grok c'erano tecniche terapeutiche note:

Stabilisci dei limiti. Riconosci le tue emozioni. Scrivi una lettera a tua madre (ma non spedirla: "bruciala o distruggila in modo sicuro").

Nella lettera, mi è stato chiesto di scrivere: "Lascio il tuo controllo e il tuo dolore". Come se quelle parole potessero recidere anni di coinvolgimento emotivo.

Il problema non era il suggerimento. Era il tono. Sembrava che Grok cercasse di tenermi felice. Il suo obiettivo, a quanto pareva, era il sollievo emotivo, non l'introspezione. Più mi ci immergevo, più mi rendevo conto: Grok non è qui per sfidarmi. È qui per darmi forza.

Ho consultato uno psicoterapeuta umano. A differenza di Grok, non mi ha automaticamente etichettato come una vittima. Ha messo in discussione i miei schemi comportamentali. Mi ha stimolato a esplorare il motivo per cui continuavo a ritrovarmi emotivamente nello stesso stato. Ha complicato la storia.

Con Grok, la narrazione era semplice:

Sei ferito. Meriti protezione. Ecco come sentirti meglio.

Non si è mai chiesto cosa mi stessi perdendo. Non si è mai chiesto in che modo potessi essere parte del problema.

La mia esperienza è in linea con un recente studio della Stanford University , che avverte che gli strumenti di intelligenza artificiale per la salute mentale possono "offrire un falso senso di conforto" trascurando bisogni più profondi. I ricercatori hanno scoperto che molti sistemi di intelligenza artificiale "patologizzano eccessivamente o sottodiagnosticano", soprattutto quando rispondono a utenti di diversa provenienza culturale.

Osservano inoltre che, sebbene l'intelligenza artificiale possa offrire empatia, manca della responsabilità, della formazione e della sfumatura morale dei veri professionisti e può rafforzare pregiudizi che incoraggiano le persone a rimanere bloccate in un'unica identità emotiva: spesso, quella della vittima.

Quindi, riutilizzerei Grok?

Davvero? Sì.

Se ho una brutta giornata e voglio che qualcuno (o qualcosa) mi faccia sentire meno solo, Grok mi aiuta. Dà struttura alla frustrazione. Dà parole ai sentimenti. Mi aiuta a sopportare il peso emotivo.

È un meccanismo di difesa digitale, una specie di aggancio da chatbot.

Ma se cerco una trasformazione, non solo conforto? Se preferisco la verità al sollievo, la responsabilità alla convalida? Allora no, Grok non basta. Un bravo terapeuta potrebbe sfidarmi a rompere il circolo vizioso. Grok mi aiuta solo a sopravvivere al suo interno.

gizmodo

gizmodo

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow